Logo

Onde você está?

ChatGPT parou de dar orientações médicas e jurídicas?

Veja o que mudou de fato.

Por: TechTudo | Data: 04/11/2025 19:01 - Atualizado em 04/11/2025 19:03

 

O que dizem as novas políticas:

Conforme o documento oficial da OpenAI, está proibido o fornecimento de consultoria personalizada que exija licença profissional, como médica ou jurídica, sem o envolvimento adequado de um profissional licenciado. A empresa também restringiu a automação de decisões críticas em áreas sensíveis sem revisão humana, incluindo aplicações médicas e jurídicas.

Na área da saúde, o ChatGPT não poderá mais analisar imagens médicas, como radiografias ou ressonâncias magnéticas, nem interpretar laudos com finalidade de diagnóstico ou tratamento. Recentemente, alguns usuários exploravam essas funcionalidades, mas a OpenAI reforça que esse tipo de orientação deve ser realizado exclusivamente por profissionais de saúde.

A medida visa garantir segurança e responsabilidade no uso da inteligência artificial em contextos sensíveis, evitando que as respostas geradas sejam interpretadas como substitutas de orientação profissional.

Para o advogado Paulo Henrique, a decisão da OpenAI de reforçar as restrições ao uso do ChatGPT para diagnósticos médicos, elaboração de documentos jurídicos e aconselhamento personalizado é uma medida necessária e, de certa forma, inevitável, já que nos últimos meses, aconteceram casos de alucinações graves. "A IA citou jurisprudências inexistentes, distorceu precedentes e até apresentou diagnósticos falsos de saúde. Esses erros não são fruto de má-fé, mas da natureza probabilística da tecnologia. Um modelo de linguagem como o ChatGPT não “sabe”, ele estima. Trabalha com padrões estatísticos, não com consciência, especialização ou responsabilidade ética", explica o especialista.

 

Na prática, o que mudou?

Fernandes explica que o modelo já possuía limites técnicos para diagnósticos e documentos jurídicos. "O que a OpenAI faz agora é endurecer a comunicação desses limites, deixando claro que, se o usuário tentar burlar os guardrails (mecanismos de segurança e controle que garantem que os sistemas de IA) e usar o sistema de forma indevida, assume integralmente o risco", afirma.

Em termos técnicos, a IA continua capaz de explicar conceitos, resumir artigos científicos, interpretar jurisprudências ou auxiliar na redação de textos jurídicos ou médicos, desde que isso ocorra em caráter educativo, informativo ou de apoio. A diferença está na clareza: a ferramenta é assistiva, não deliberativa.

O que continua sendo permitido

O ChatGPT pode ser utilizado como ferramenta de apoio no contexto educacional e informativo, desde que o conteúdo não seja apresentado como diagnóstico ou prescrição médica. Entre as funcionalidades permitidas estão:

Na área médica:

  • Explicar possíveis causas gerais de sintomas de forma educativa.
  • Ajudar a entender exames, termos médicos ou orientações dadas por profissionais.
  • Indicar quando procurar atendimento médico, especialmente em situações de urgência.
  • Apontar fontes confiáveis, como Ministério da Saúde, OMS e sociedades médicas.

Na área jurídica:

  • Explicar conceitos e institutos jurídicos.
  • Resumir legislações e jurisprudências.
  • Auxiliar na estruturação de argumentos e redação de textos jurídicos.
1